人工智能|私隱專員公署發布AI 個人資料保障框架 涵4範疇提供管治建議予企業
撰文: 吳穎嵛
發布時間: 2024/06/11 14:15
最後更新: 2024/06/11 17:30
個人資料私隱專員公署今日(11日)發布《人工智能(AI):個人資料保障模範框架》,涵蓋4大範疇,提出建議措施。公署相信,模範框架可協助機構遵從《個人資料(私隱)條例》的規定,以孕育AI在香港的健康發展。
《框架》涵蓋四大範疇,包括管治架構、風險評估、系統實施及管理,以及與持份者的溝通。當中提到,機構應建立內部的AI管治策略,包括成立管治委員會,就採購AI方案和如何使用系統提供指引及進行監督,亦要建立有效的內部匯報機制,以便委員會針對任何系統故障或資料保障問題作出監察;機構在採購AI方案時,亦要考慮供應商有否遵循國際標準。
《框架》指出,機構在引入AI系統前,需要進行全面的風險評估,包括考慮涉及的個人資料數量、敏感程度、資料保安、出現私隱風險的可能性和潛在損害的嚴重程度等,並採取相稱的風險管理措施,包括作出適當的人為監督,以減低AI作出不當決定。
據生產力局數據,今年預計將有近一半香港機構使用AI,與2023比較上升約2成。個人資料私隱專員鍾麗玲指,AI帶來不少私隱風險,包括收集過量資料、使用者難以理解資料如何使用、準確性成疑等,又指AI難以識別收集到的資料屬於誰,但可以重新識別資料所屬身份,是很大的資料風險。她指,現時有兩種私隱風險最為常見,如不少本港市民的電郵等個人資料被洩露,以及使用聊天機器人時,員工將客戶資料輸入予機器人,而機器人使用資料以回應其他使用者的問題。
鍾麗玲相信,模範框架可協助機構遵從《個人資料(私隱)條例》的規定,以孕育AI在香港的健康發展,並促進香港成為創新科技樞紐,以及推動香港以至大灣區的數字經濟發展。
她透露,公署去年8月至今年2月間,審查了28間公司有關使用AI工具情況,當中10間機構使用人工智能時,沒有違規涉及個人資料,公署往後將繼續在遵從指引及使用AI等方面調查機構。
下載HKET App,追蹤TOPick WhatsApp頻道,睇全方位資訊: